卷积神经网络(CNN)的泛化性能受训练图像的数量,质量和品种的影响。必须注释训练图像,这是耗时和昂贵的。我们工作的目标是减少培训CNN所需的注释图像的数量,同时保持其性能。我们假设通过确保该组训练图像包含大部分难以分类的图像,可以更快地提高CNN的性能。我们的研究目的是使用活动学习方法测试这个假设,可以自动选择难以分类的图像。我们开发了一种基于掩模区域的CNN(掩模R-CNN)的主动学习方法,并命名此方法Maskal。 Maskal涉及掩模R-CNN的迭代训练,之后培训的模型用于选择一组未标记的图像,该模型是不确定的。然后将所选择的图像注释并用于恢复掩模R-CNN,并且重复这一点用于许多采样迭代。在我们的研究中,掩模R-CNN培训由由12个采样迭代选择的2500个硬花甘蓝图像,从训练组14,000个硬花甘蓝图像的训练组中选择了12个采样迭代。对于所有采样迭代,Maskal比随机采样显着更好。此外,在抽样900图像之后,屏蔽具有相同的性能,随着随机抽样在2300张图像之后。与在整个培训集(14,000张图片)上培训的面具R-CNN模型相比,Maskal达到其性能的93.9%,其培训数据的17.9%。随机抽样占其性能的81.9%,占其培训数据的16.4%。我们得出结论,通过使用屏马,可以减少注释工作对于在西兰花的数据集上训练掩模R-CNN。我们的软件可在https://github.com/pieterblok/maskal上找到。
translated by 谷歌翻译
大多数面向进化的深层生成模型并未明确考虑生物学序列的潜在进化动力学,因为它是在贝叶斯系统发育推理框架内进行的。在这项研究中,我们提出了一种深层变异贝叶斯生成模型(EVOVGM)的方法,该方法共同近似局部进化参数的真实后验并生成序列比对。此外,它是由JC69,K80和GTR等连续时间马尔可夫链替代模型进行实例化和调整的。我们通过低变异的随机估计器和梯度上升算法训练模型。在这里,我们分析了VOVGM对模拟几种进化场景和不同大小的合成序列比对的一致性和有效性。最后,我们使用冠状病毒基因的序列比对来强调微调EVOVGM模型的鲁棒性。
translated by 谷歌翻译
跨域对齐在从机器翻译到转移学习的任务中起关键作用。最近,在单语嵌入中运行的纯监督方法已成功地用于推断双语词典而不依赖监督。但是,当前的最新方法仅关注点向量,尽管在表示单词时已证明分布嵌入可以嵌入更丰富的语义信息。在本文中,我们提出了与概率嵌入对齐的随机优化方法。最后,我们通过对齐单语言数据训练的单词嵌入方式来评估无监督单词翻译问题的方法。我们表明,所提出的方法在几种语言对的双语词典归纳任务上取得了良好的性能,并且比基于点矢量的方法更好。
translated by 谷歌翻译